Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Métodos predictivos y supervisados de Minería de Datos (página 2)




Enviado por Pablo Turmero



Partes: 1, 2

Monografias.com

11
Perceptron Learning (Gradient Descent).
El algoritmo Gradient Descent ajusta así:
1. Se asigna a los wi,j un valor pequeño aleatorio entre 0 y 1.
2. Hasta que la condición de terminación se cumple, hacer:
3. Para todos los p ejemplos (xk,yk)t se calcula la matriz de error (etk=ytk-y’tk)
4. Se recalculan los pesos siguiendo Least-Mean Squares (LMS), con un learning rate (r):

5. t:= t+1, ir a 2.
r es un valor generalmente pequeño (0.05) y se determina heurísticamente. A mayor r converge más rápido pero puede perderse en valles locales.
Aprendizaje Supervisado

Monografias.com

12
Perceptron Learning:
El algoritmo Perceptron (versión incremental o aproximación estocástica al gradient descent):
1. Se asignan aleatoriamente los wi,j entre 0 y 1 (o se pone .5)
2. t= 1 (se toma el primer ejemplo).
3. Para el ejemplo (x,y)t se calcula el vector error (et=yt-y’t)
4. Se recalculan los pesos siguiendo Least-Mean Squares (LMS), también llamada regla delta, Adaline o Widrow-Hoff:

5. t:= t+1, ir a 2 hasta que no queden ejemplos o el error medio se ha reducido a un valor deseado.
En general, esta versión es más eficiente que la anterior y evita algunos mínimos locales.
Aprendizaje Supervisado

Monografias.com

13
Multilayer Perceptron (redes neuronales artificiales, ANN).
El perceptron de una capa no es capaz de aprender las funciones más sencillas.
Se añaden capas internas, se introducen diferentes funciones de activación e incluso recientemente se introducen bucles y retardos.

Aprendizaje Supervisado
Salidas
Entradas
h1,1
y3
y2
y1
x1
x2
x3
h1,2
h1,3
h1,4
h1,5
x4
Hidden Layer

Monografias.com

14
Multilayer Perceptron (redes neuronales artificiales, ANN).
En el caso más sencillo, con la función de activación sgn, el número de unidades internas k define exactamente el número de boundaries que la función global puede calcular por cada salida.

El valor de k se suele determinar heurísticamente.

Pero, ¿cómo entrenar este tipo de red?

Aprendizaje Supervisado
PARTICIÓN POLIGONAL POSIBLE CON 4 UNIDADES INTERNAS

Monografias.com

15
Multilayer Perceptron (redes neuronales artificiales, ANN).
Para poder extender el gradient descent necesitamos una función de activación continua:
La más usual es la función sigmoidal:

Esto permite particiones no lineales:

Aprendizaje Supervisado
PARTICIÓN NO LINEAL MÚLTIPLE POSIBLE CON 4 UNIDADES INTERNAS

Monografias.com

16
Algoritmo Backpropagation (Rumelhart et al. 1986)
Inicializar todos los pesos a valores pequeños aleatorios (entre -.05 y .05)
Hasta que se cumpla la condición de terminación hacer:
Para cada ejemplo (x,y):
Se calculan las salidas de todas las unidades ou
Se calcula el error en cada salida k:

Para cada unidad oculta h se calcula su error:

Se actualizan los pesos:

Aprendizaje Supervisado
Se necesitan muchos ejemplos: al menos 10 ejemplos por cada peso y output a aprender. P.ej, una red con 50 entradas y 10 nodos internos, necesita 10.220 ejemplos por lo menos.

Monografias.com

17
Variaciones:
Si hay más de una capa oculta:

Si la red es no recursiva, pero no está organizada en capas (se trata de cualquier árbol acíclico), también se puede:

Existe una variante que va añadiendo capas según se necesitan, denominado cascade-correlation (Fahlman and Lebiere 1990), resolviendo el problema de determinar el número de unidades ocultas.

Aprendizaje Supervisado

Monografias.com

18
Radial-Basis Function (Clustering Method + LMS).
PRIMER PASO: Algoritmo Clustering:
1. Dividir aleatoriamente los ejemplos en k conjuntos y calcular la media (el punto medio) de cada conjunto.
2. Reasignar cada ejemplo al cjto. con punto medio más cercano.
3. Calcular los puntos medios de los k conjuntos.
4. Repetir los pasos 2 y 3 hasta que los conjuntos no varíen.
SEGUNDO PASO: Recodificar los ejemplos como distancias a los centros y normalizar (cada ejemplo pasa a ser un vector de k eltos).
TERCER PASO: Con un perceptron de k elementos de entrada y una salida, aplicar el algoritmo visto antes.
Aprendizaje Supervisado
PARTICIÓN
HIPERESFÉRICA
CON 4 centros.
Se convierte en una partición lineal (hiperplano) en un espacio de 4 dimensiones con los ejemplos siendo las distancias a los centros.

Monografias.com

19
Árboles de Decisión (ID3 (Quinlan), C4.5 (Quinlan), CART).
Algoritmo Divide y Vencerás:
1. Se crea un nodo raíz con S:= todos los ejemplos.
2. Si todos los elementos de S son de la misma clase, el subárbol se cierra. Solución encontrada.
3. Se elige una condición de partición siguiendo un criterio de partición (split criterion).
4. El problema (y S) queda subdivido en dos subárboles (los que cumplen la condición y los que no) y se vuelve a 2 para cada uno de los dos subárboles.
Aprendizaje Supervisado
PARTICIÓN
CUADRICULAR.
0
1
1
0
X>0.25
No
X>0.25
X>0.66
X>0.75
Y>0.25
Y>0.6

Y>0.25
No


X>0.75
X>0.66
Y>0.6

No
No
No

Monografias.com

20
Árboles de Decisión.
Ejemplo C4.5 con datos discretos:
Example Sky Temperature Humidity Wind PlayTennis
1 Sunny Hot High Weak No
2 Sunny Hot High Strong No
3 Overcast Hot High Weak Yes
4 Rain Mild High Weak Yes
5 Rain Cool Normal Weak Yes
6 Rain Cool Normal Strong No
7 Overcast Cool Normal Strong Yes
8 Sunny Mild High Weak No
9 Sunny Cool Normal Weak Yes
10 Rain Mild Normal Weak Yes
11 Sunny Mild Normal Strong Yes
12 Overcast Mild High Strong Yes
13 Overcast Hot Normal Weak Yes
14 Rain Mild High Strong No
Aprendizaje Supervisado

Monografias.com

21
Árboles de Decisión.
Ejemplo C4.5 con datos discretos:

Representación Lógica:
(Outlook=Sunny AND Humidity=Normal) OR (Outlook=Overcast) OR (Outlook=Rain AND Wind=Weak)
Aprendizaje Supervisado
Outlook?
YES
Humidity?
Sunny
Overcast
Rain
Wind?
YES
YES
NO
NO
High
Normal
Strong
Weak
P.ej., la instancia (Outlook = sunny, Temperature = cool, Humidity = high, Wind = strong) es NO.

Monografias.com

22
Árboles de Decisión (ID3, C4.5, CART).
El criterio GANANCIA DE INFORMACIÓN (C4.5) ha dado muy buenos resultados. Suele derivar en una preferencia en árboles pequeños (navaja de Occam).

VENTAJAS:
Muy fácil de entender y de visualizar el resultado.
Son robustos al ruido. Existen algoritmos de post-pruning para podar hojas poco significativas (que sólo cubren uno o muy pocos ejemplos).

DESVENTAJAS:
Suele ser muy voraz (no hace backtracking: mínimos locales).
Si el criterio de partición no está bien elegido, las particiones suelen ser muy ad-hoc y generalizan poco.

Aprendizaje Supervisado

Monografias.com

23
Naive Bayes Classifiers.

Asumiendo independencia entre los atributos, tenemos:

Aprendizaje Supervisado
PARTICIÓN CUADRICULAR (intervalo fijo, 0.2).
0
1
1
0
0.2
0.4
0.6
0.8
0.2
0.4
0.6
0.8
P( |int)
3/10
1/10
1/10
3/10
3/10
P(int| )
P(int| )
P( |int)
4/10
0
1/10
4/13
1/10
5/13
2/10
2/13
2/10
2/13
?
P( | ) = P( ) · P(0.2<=0.4| ) · P(0.4<=0.4| ) · P(0.4<=0.6| )=
= 0.435 · 1/10 · 1/10 = 0.004
?
P( | ) = P( ) · P(0.2’ es un problema relacional IMPURO.

Algún método no-relacional puede funcionar bien, pero otros no.
Aprendizaje Supervisado
x > y
x < y
’ es un problema relacional IMPURO.

Algún método no-relacional puede funcionar bien, pero otros no.
Aprendizaje Supervisado
x > y
x < y

Monografias.com

35
¿Relacional o No? Funciones Heurísticas:
Permiten determinar el grado de continuidad o separabilidad, considerando una medida de distancia. Si la separabilidad es baja, debemos intentar métodos no basados en distancias.

Separabilidad Lineal (Minsky and Papert 1988)
Problema: Muy pobre. Muchos métodos no relacionales son capaces de aprender aunque los datos no sean separables linealmente.

Separabilidad Geométrica de Thornton (1997)

donde f(·) es la función definida por los datos, nn(·) es el vecino más cercano y eq(a,b) =1 sii a=b. Si no, =0.
Problema: depende mucho del número de ejemplos.
Aprendizaje Supervisado

Monografias.com

36
Funciones Heurísticas.

Separabilidad Geométrica Radial:
Porcentaje medio de los ejemplos tales que sus ejemplos próximos en un radio r son de la misma clase.

El radio a utilizar se puede calcular a partir de la densidad de los ejemplos.
También se puede calcular una RGS’ que no incluye el propio punto.
Aprendizaje Supervisado

Monografias.com

37
Ejemplos:

GS(Paridad) = 0
GS(Mayor) = 1 (suponiendo infinitos ejemplos)
Aprendizaje Supervisado
GS = 21/23 = 0.91
RGS = 18.44/23 = 0.8

Monografias.com

38
Métodos pseudo-relacionales
Una manera de poder abordar problemas con poca separabilidad es transformar los datos, mediante recodificaciones o aumento de la dimensionalidad.

Super-charging: aumentar la dimensionalidad separando todos los atributos en dígitos binarios.

Pick and Mix: crear nuevos atributos como combinación de los ya existentes.

SCIL: iterar múltiples veces un método clásico fence & fill seguido de recodificación (Thornton 2000):.
Aprendizaje Supervisado

Monografias.com

39
Super-charging, ejemplo:
Problema MONKS2 del repositorio UCI se define como:
la salida es cierta si “exactamente dos de las
seis variables de entrada tienen su primer valor”.
Si se aplica ID3 directamente, el resultado es un 67,9% de acierto sobre los datos de prueba.

CODIFICACIÓN: se obtienen 17 dimensiones separando las posibles igualdades (x1=a, x2=b, x3=c, y1= 1, y2=4, …)

Si se aplica ahora ID3 el resultado es un 77%.
Si se aplica backpropagation con un número suficiente de unidades ocultas, consigue 100%.
PROBLEMAS:
A veces ‘sobreajusta’ (overfits), dando patrones irreales.
Además los modelos aprendidos son difícilmente inteligibles.
Incrementar el número de atributos aumenta el coste temporal.
Aprendizaje Supervisado

Monografias.com

40
Pick-and-Mix: Algunos problemas son relacionales debido simplemente a relaciones triviales entre los atributos.

Si tenemos en el conocimiento previo o de base B algunas de estas relaciones triviales, podríamos añadir nuevos atributos a los datos combinando los atributos originales con estas funciones triviales.

Esta solución es especialmente útil para modelos matemáticos y físicos, ya que se pueden utilizar las operaciones básicas (+, –, /, *) sobre los atributos y conseguir modelos no lineales.

En general el número de funciones de B a probar se dispara, o éstas deben estar muy bien elegidas, lo que hace que parte de la solución se disponga antes de empezar (lo mismo ocurre con muchos sistemas ILP similares, como FOIL, o con la regresión logarítmica).

Sin embargo, aun probando muchísimas funciones en el conocimiento previo, no resuelven otros problemas relacionales, como el de la paridad o el MONKS2.
Aprendizaje Supervisado

Monografias.com

41
Pick-and-Mix, ejemplo:
El sistema BACON (Langley 1978, 1979, et al. 1983).
Descubrimiento de la ley de Kepler (y2/d3 es una constante):
Planeta y d y/d (y/d)/d ((y/d)/d)y (((y/d)/d)y)/d
Mercurio 0.24 0.39 0.62 1.61 0.39 1.00
Venus 0.61 0.72 0.85 1.18 0.72 1.00
Tierra 1.00 1.00 1.00 1.00 1.00 1.00
Marte 1.88 1.52 1.23 0.81 1.52 1.00
Ceres 4.60 2.77 1.66 0.60 2.76 1.00
Júpiter 11.86 5.20 2.28 0.44 5.20 1.00
Saturno 29.46 9.54 3.09 0.32 9.54 1.00
Urano 84.01 19.19 4.38 0.23 19.17 1.00
Neptuno 164.80 30.07 5.48 0.18 30.04 1.00
Plutón 248.40 39.52 6.29 0.16 39.51 1.00
T.Beta 680.00 77.22 8.81 0.11 77.55 1.00
(y representa el periodo del planeta, d representa la distancia al sol, ambos valores normalizados respecto a la tierra)
Aprendizaje Supervisado

Monografias.com

42
Condiciones de Pick & Mix:
En minería de datos, generalmente los datos sugieren las creación de nuevos campos (columnas) por pick & mix.
Ejemplos:
height^2/weight (índice de obesidad)
debt/earnings
passengers * miles
credit limit – balance
population / area
minutes of use / number of telephone calls
activation_date – application_date
number of web pages visited / total amount purchased
Es conveniente añadirlas, pero siempre una sola combinación. No poner x/y si ya se ha puesto x-y.
Aprendizaje Supervisado

Monografias.com

43
Pero estos métodos pseudo-relacionales no son capaces de:

detectar relaciones entre varios ejemplos o entre partes complejas del mismo ejemplo.

aprender funciones recursivas.

Veamos un ejemplo que sí y otro que no…

Aprendizaje Supervisado
¿En qué casos es necesario expresividad relacional y/o recursiva?

Monografias.com

44
EJEMPLO. Aprender el concepto daughter con LINUS (Lavrac et al. 1991):

B= { parent(eve, sue). parent(ann, tom). parent(pat,ann). parent(tom,sue).
female(ann). female(sue). female(eve). }
E+= { daughter(sue,eve). daughter(ann,pat). }
E?= { daughter(tom,ann). daughter(eve,ann). }

LINUS transforma B y E a un problema de atributos (proposicional):

Aprendizaje Supervisado
Resultado del aprendizaje de atributos (p.ej. C4.5):
class = + if (female(X) = true) ? (parent(Y,X) = true)
LINUS transforma de nuevo a Prolog:
daughter(X,Y) :- female(X), parent(Y,X).
Es simplemente un ejemplo de Pick & Mix

Monografias.com

45
EJEMPLO. Aprender el problema no. 47 de Bongard (I.Q. tests) :

E+= { shape(case1, s1-1, triangle, small, up). shape(case1, s1-2, circle, large, n_a).
shape(case2, s2-1, triangle, large, up). shape(case2, s2-2, circle, small, n_a).
shape(case2, s2-3, square, large, n_a). in(s1-1,s1-2). left(s2-1,s2-2). }
E-= { left(s1-1,s1-2). in(s2-1,s2-2). }

Podríamos transformarla a un problema de atributos (proposicional):

Problemas:
Muchos atributos (y muchos de ellos vacíos).
Ambigüedad (existen múltiples representaciones para el mismo ejemplo). Una mala solución puede depender de esta representación.
P.ej.: Clase = + if shape1 = triangle

Aprendizaje Supervisado
El aprendizaje relacional se necesita estrictamente cuando los ejemplos consisten de un número variable de objetos y de las relaciones entre estos objetos son importantes.

Monografias.com

46
EJEMPLOS.
MEMBER:
member(X,[X|Z]).
member(X,[Y|Z]):- member(X,Z).
RELATIVE:
ancestor(X,Y):- parent(X,Y).
ancestor(X,Y):- parent(X,Z), ancestor(Z,Y).
relative(X,Y) :- ancestor(X,W), ancestor(Y,W).
REACH:
reach(X,Y):- link(X,Y).
reach(X,Y):- link(X,Z), reach(Z,Y).

Aprendizaje Supervisado
La recursividad se requiere cuando la profundidad (el nivel) de las relaciones no se conoce a priori (objetos que contienen o se relacionan con un número variable de objetos).

Monografias.com

47
Aprendizaje Recursivo:

Modelos Estructurales de Grammar Learning:
Es uno de los campos más antiguos de ML:
(las frases gramaticales son de la clase true)
Aprendizaje de autómatas aceptadores de gramáticas.
Gramáticas regulares estocásticas.
Lenguajes probabilísticos: cadenas de Markov, algoritmo de Viterbi

Más información “Aprendizaje y Percepción” (semestre 4B)

Aprendizaje Supervisado

Monografias.com

48
Aprendizaje Relacional y Recursivo:

IFP (Inductive Functional Programming). Se aprenden reglas de la forma:
g(f(a), X)?b
Existen aproximaciones con LISP, el lenguaje ML y otros (70s).

ILP (Inductive Logic Programming). El lenguaje representacional es cláusulas de Horn:
p(X,Y,b) :- q(f(X,Y), c)
Inicio en los 80 (Shapiro) y gran desarrollo en la década de los 90.

IFLP (Inductive Functional Logic Programming):
g(f(a),X)? b :- p(X,b) = true, q(X,X) = a
Mayor naturalidad y expresividad. Ventaja con problemas de clasif.

Aprendizaje en Orden Superior. Algún intento con el lenguaje Escher. Todavía en pañales.
Aprendizaje Supervisado

Monografias.com

49
Sobremuestreo (oversampling):
En problemas de clasificación sobre bases de datos es posible que haya muchísima más proporción de algunas clases sobre otras. Esto puede ocasionar que haya muy pocos casos de una clase:
Problema: la clase escasa se puede tomar como ruido y ser ignorada por la teoría. Ejemplo: si un problema binario (yes / no) sólo hay un 1% de ejemplos de la clase no, la teoría “todo es de la clase yes” tendría un 99% de precisión (accuracy).

Soluciones:
Utilizar sobremuestro…
Análisis ROC
Aprendizaje Supervisado. Sobremuestreo

Monografias.com

50
Sobremuestreo (oversampling / balancing):
El sobremuestreo consiste en filtrar los ejemplos (tuplas) de las clases con mayor proporción, manteniendo las tuplas de las clases con menor proporción.
Esto, evidentemente, cambia la proporción de las clases, pero permite aprovechar a fondo los ejemplos de las clases más raras.
¿Cuándo se debe usar sobremuestreo?
Cuando una clase es muy extraña: p.ej. predecir fallos de máquinas, anomalías, excepciones, etc.
Cuando todas las clases (especialmente las escasas) deben ser validadas. P.ej. si la clase escasa es la de los clientes fraudulentos.
Pegas: hay que ser muy cuidadoso a la hora de evaluar los modelos.
Aprendizaje Supervisado. Sobremuestreo

Monografias.com

51
Macro-average:
Una alternativa al sobremuestreo consiste en calcular la precisión de una manera diferente.
Habitualmente, la precisión (accuracy) se calcula:

(conocido como micro-averaged accuracy)
La alternativa es calcular la precisión como:

(conocido como macro-averaged accuracy)
De esta manera se obtiene un resultado mucho más compensado
Aprendizaje Supervisado. Macro-average

Monografias.com

52
Errores de Clasificación (confusión de clases) :

En muchos casos de minería de datos, el error de clasificación sobre una clase no tiene las mismas consecuencias económicas, éticas o humanas que con otras.

Ejemplo: clasificar una partida de neumáticos en perfectas condiciones como defectuoso o viceversa.
Aprendizaje Supervisado.Matrices de Coste y Confusión.

Monografias.com

53
Matrices de Confusión y Coste:
Existen técnicas para ponderar las clases ? se combinan las “matrices de confusión” con las “matrices de costes”:

Aprendizaje Supervisado.Matrices de Coste y Confusión.
Coste total:
-29787€

Monografias.com

54
Análisis ROC (Receiver Operating Characteristic):
Se basa en dibujar el “true-positive rate” en el eje y y el “false-positive rate” en el eje x. Por ejemplo, dada la siguiente matriz de confusión:

Tendríamos TPR= 0.6 y FPR= 0.3.
Aprendizaje Supervisado.Análisis ROC.
 

Monografias.com

55
Errores de Clasificación y Mailings:
Más aún… Existen técnicas específicas para evaluar la conveniencia de campañas de ‘mailings’ (propaganda por correo selectiva):
EJEMPLO: Una compañía quiere hacer un mailing para fomentar la compra de productos. En caso de respuesta positiva, los clientes suelen comprar productos por valor medio de 100€. Si un 55% suelen ser costes de producción (fijos y variables), tenemos que por cada respuesta positiva hay una ganancia media de 45€.
Cada mailing cuesta 1€ (portes, folletos) y el conjunto de la campaña (indep. del número) tendría un coste base 20.000€.
Con un 1.000.000 de clientes, en el que el 1% responde, ¿cómo podemos evaluar y aplicar un modelo que nos dice (ordena) los mejores clientes para la campaña?
Aprendizaje Supervisado.Matrices de Coste y Confusión.

Monografias.com

56
Errores de Clasificación y Mailings. Ejemplo:
Tabla mostrando el beneficio para cada decil:

Coste Campaña
20.000 –> 20.000
100.000 x 1 –> 100.000
Total: 120.000

Benef. Campaña
3.000 x 45 –> 135.000

Benef. Netos:
15.000

Coste Campaña
20.000 –> 20.000
200.000 x 1 –> 100.000
Total: 220.000

Benef. Campaña
5.000 x 45 –> 225.000

Benef. Netos:
5.000
Aprendizaje Supervisado.Matrices de Coste y Confusión.

Monografias.com

57
Errores de Clasificación y Mailings. Ejemplo (cont.):
Gráfica mostrando el beneficio para tres campañas diferentes:
Aprendizaje Supervisado.Matrices de Coste y Confusión.

Monografias.com

58
Errores de Clasificación y Mailings:

En este tipo de problemas (si son binarios o ordenados) es preferible hacer hipótesis con clases continuas (estimaciones), porque permiten combinar con los costes de una manera más detallada.

P.ej. es preferible un modelo que determine en una escala de 0 a 10 lo bueno que es un cliente, que un modelo que determine si un cliente es malo o bueno.
Aprendizaje Supervisado.Matrices de Coste y Confusión.

Monografias.com

59
Secuenciación de Mailings:
No sobrecargar los clientes con demasiados mensajes de márketing… O bien acabarán ignorándolos o bien se cambiarán de compañía.

El mismo pequeño grupo de gente se elige una y otra vez y otros no se eligen nunca.
Aprendizaje Supervisado.Mailings.

Monografias.com

60
Secuenciación de Mailings:
Hay que intentar abarcar mejor los clientes:

Ahora todos los clientes participan en una campaña.
Aprendizaje Supervisado.Mailings.

Monografias.com

61
Combinación de Hipótesis:

VOTING/ARBITER/COMBINER:
Se utiliza DISTINTOS algoritmos para aprender distintas hipótesis sobre todo el conjunto de los datos.
Luego se combinan las distintas hipótesis.

Maneras de COMBINAR hipótesis:
WEIGHTING MAJORITY: el valor se obtiene haciendo la media (caso continuo) o la mediana (caso discreto).
STACKING/CASCADE: se utiliza cada hipótesis como una variable y se utiliza otro algoritmo (p.ej. una red neuronal para asignar diferentes pesos a las diferentes hipótesis).
Métodos PredictivosCombinación de Hipótesis

Monografias.com

62
Voting y el Clasificador Bayesiano Óptimo:

Una pregunta es: “Qué hipótesis es más probable?”
Otra pregunta es: “Qué predicción es más probable?”
Consideremos una evidencia D y tres hipótesis h1, h2 y h3, cuyas probabilidades a posteriori se han calculado:

Para la próxima observación h1 la clasifica como positiva (true), mientras que h2 y h3 la clasifican como negativa (false).
Según MAP y suponiendo P(h) uniforme, la mejor hipótesis es h1 y la nueva observación debería clasificarse como positiva…
Sin embargo…

La mejor clasificación de una nueva instancia se obtiene combinando las predicciones de las distintas hipótesis consideradas (voting).
Métodos PredictivosCombinación de Hipótesis

Monografias.com

63
Voting y el Clasificador Bayesiano Óptimo:

Justificación:

Para el ejemplo anterior:

Por tanto:

Métodos PredictivosCombinación de Hipótesis

Monografias.com

64
Voting y el Clasificador Bayesiano Óptimo:

No existe otro método de clasificación mejor si se conocen el espacio de hipótesis y su distribución a priori.

Es importante resaltar que las predicciones que se van generando por el clasificador bayesiano óptimo forman una nueva hipótesis hOBC.

Esta hipótesis puede ser que incluso no pertenezca a H!!! Esto permite sobrepasar el límite de expresividad inicial marcado por H.

Sin embargo, el mayor problema es que la hipótesis hOBC muchas veces no es representable y mucho menos inteligible y no proporciona conocimiento, sólo buenas predicciones.
Métodos PredictivosCombinación de Hipótesis

Monografias.com

65
Potenciación mediante Combinación de Hipótesis:

BOOSTING: Se utiliza el MISMO algoritmo para aprender distintas hipótesis sobre los mismos datos, aumentando el peso de aquellos ejemplos que han sido clasificados incorrectamente. Luego se combinan las distintas hipótesis.

BAGGING: Se utiliza el MISMO algoritmo para aprender distintas hipótesis sobre n muestras de m de los m datos con reemplazamiento (bootstrap). Luego se combinan las distintas hipótesis.

RANDOMISING: Se utiliza el MISMO algoritmo para aprender distintas hipótesis sobre los mismos datos, pero variando aleatoriamente alguna característica del algoritmo (restringiendo los atributos que se usan cada vez, variando el criterio de selección, etc.). Luego se combinan las distintas hipótesis.

Métodos PredictivosCombinación de Hipótesis

Monografias.com

66

Ejemplo: Boosting (reiteración):
A veces unos malos resultados se pueden mejorar mediante la técnica de BOOSTING:

Se da peso a los ejemplos y para cada iteración se aprende una nueva hipótesis, siendo los ejemplos reponderados para que el sistema se centre en los ejemplos que han sido mal clasificados.

Algoritmo más simple:
Dar a todos los ejemplos el mismo peso.
De i:1 hasta T (nº de reiteraciones)
Aprender una hipótesis hi con los pesos actuales.
Disminuir los pesos de los ejemplos que hi clasifica correctamente.
Después se promedia una solución ponderada a partir de las T hipótesis, teniendo en cuenta la precisión de cada una.
Métodos PredictivosCombinación de Hipótesis

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter